Your browser doesn't support javascript.
loading
Show: 20 | 50 | 100
Results 1 - 20 de 46
Filter
1.
Arq. bras. oftalmol ; 87(3): e2022, 2024. tab, graf
Article in English | LILACS-Express | LILACS | ID: biblio-1520228

ABSTRACT

ABSTRACT Purpose: The emergency medical service is a fundamental part of healthcare, albeit crowded emergency rooms lead to delayed and low-quality assistance in actual urgent cases. Machine-learning algorithms can provide a smart and effective estimation of emergency patients' volume, which was previously restricted to artificial intelligence (AI) experts in coding and computer science but is now feasible by anyone without any coding experience through auto machine learning. This study aimed to create a machine-learning model designed by an ophthalmologist without any coding experience using AutoML to predict the influx in the emergency department and trauma cases. Methods: A dataset of 356,611 visits at Hospital da Universidade Federal de São Paulo from January 01, 2014 to December 31, 2019 was included in the model training, which included visits/day and the international classification disease code. The training and prediction were made with the Amazon Forecast by 2 ophthalmologists with no prior coding experience. Results: The forecast period predicted a mean emergency patient volume of 216.27/day in p90, 180.75/day in p50, and 140.35/day in p10, and a mean of 7.42 trauma cases/ day in p90, 3.99/day in p50, and 0.56/day in p10. In January of 2020, there were a total of 6,604 patient visits and a mean of 206.37 patients/day, which is 13.5% less than the p50 prediction. This period involved a total of 199 trauma cases and a mean of 6.21 cases/day, which is 55.77% more traumas than that by the p50 prediction. Conclusions: The development of models was previously restricted to data scientists' experts in coding and computer science, but transfer learning autoML has enabled AI development by any person with no code experience mandatory. This study model showed a close value to the actual 2020 January visits, and the only factors that may have influenced the results between the two approaches are holidays and dataset size. This is the first study to apply AutoML in hospital visits forecast, showing a close prediction of the actual hospital influx.


RESUMO Objetivo: Esse estudo tem como objetivo criar um modelo de Machine Learning por um oftalmologista sem experiência em programação utilizando auto Machine Learning predizendo influxo de pacientes em serviço de emergência e casos de trauma. Métodos: Um dataset de 366,610 visitas em Hospital Universitário da Universidade Federal de São Paulo de 01 de janeiro de 2014 até 31 de dezembro de 2019 foi incluído no treinamento do modelo, incluindo visitas/dia e código internacional de doenças. O treinamento e predição foram realizados com o Amazon Forecast por dois oftalmologistas sem experiência com programação. Resultados: O período de previsão estimou um volume de 206,37 pacientes/dia em p90, 180,75 em p50, 140,35 em p10 e média de 7,42 casos de trauma/dia em p90, 3,99 em p50 e 0,56 em p10. Janeiro de 2020 teve um total de 6.604 pacientes e média de 206,37 pacientes/dia, 13,5% menos do que a predição em p50. O período teve um total de 199 casos de trauma e média de 6,21 casos/dia, 55,77% mais casos do que a predição em p50. Conclusão: O desenvolvimento de modelos era restrito a cientistas de dados com experiencia em programação, porém a transferência de ensino com a tecnologia de auto Machine Learning permite o desenvolvimento de algoritmos por qualquer pessoa sem experiencia em programação. Esse estudo mostra um modelo com valores preditos próximos ao que ocorreram em janeiro de 2020. Fatores que podem ter influenciados no resultado foram feriados e tamanho do banco de dados. Esse é o primeiro estudo que aplicada auto Machine Learning em predição de visitas hospitalares com resultados próximos aos que ocorreram.

2.
Cad. Saúde Pública (Online) ; 40(1): e00122823, 2024. tab, graf
Article in English | LILACS-Express | LILACS | ID: biblio-1528216

ABSTRACT

Abstract: Severe acute respiratory infection (SARI) outbreaks occur annually, with seasonal peaks varying among geographic regions. Case notification is important to prepare healthcare networks for patient attendance and hospitalization. Thus, health managers need adequate resource planning tools for SARI seasons. This study aims to predict SARI outbreaks based on models generated with machine learning using SARI hospitalization notification data. In this study, data from the reporting of SARI hospitalization cases in Brazil from 2013 to 2020 were used, excluding SARI cases caused by COVID-19. These data were prepared to feed a neural network configured to generate predictive models for time series. The neural network was implemented with a pipeline tool. Models were generated for the five Brazilian regions and validated for different years of SARI outbreaks. By using neural networks, it was possible to generate predictive models for SARI peaks, volume of cases per season, and for the beginning of the pre-epidemic period, with good weekly incidence correlation (R2 = 0.97; 95%CI: 0.95-0.98, for the 2019 season in the Southeastern Brazil). The predictive models achieved a good prediction of the volume of reported cases of SARI; accordingly, 9,936 cases were observed in 2019 in Southern Brazil, and the prediction made by the models showed a median of 9,405 (95%CI: 9,105-9,738). The identification of the period of occurrence of a SARI outbreak is possible using predictive models generated with neural networks and algorithms that employ time series.


Resumo: Surtos de síndrome respiratória aguda grave (SRAG) ocorrem anualmente, com picos sazonais variando entre regiões geográficas. A notificação dos casos é importante para preparar as redes de atenção à saúde para o atendimento e internação dos pacientes. Portanto, os gestores de saúde precisam ter ferramentas adequadas de planejamento de recursos para as temporadas de SRAG. Este estudo tem como objetivo prever surtos de SRAG com base em modelos gerados com aprendizado de máquina usando dados de internação por SRAG. Foram incluídos dados sobre casos de hospitalização por SRAG no Brasil de 2013 a 2020, excluindo os casos causados pela COVID-19. Estes dados foram preparados para alimentar uma rede neural configurada para gerar modelos preditivos para séries temporais. A rede neural foi implementada com uma ferramenta de pipeline. Os modelos foram gerados para as cinco regiões brasileiras e validados para diferentes anos de surtos de SRAG. Com o uso de redes neurais, foi possível gerar modelos preditivos para picos de SRAG, volume de casos por temporada e para o início do período pré-epidêmico, com boa correlação de incidência semanal (R2 = 0,97; IC95%: 0,95-0,98, para a temporada de 2019 na Região Sudeste). Os modelos preditivos obtiveram uma boa previsão do volume de casos notificados de SRAG; dessa forma, foram observados 9.936 casos em 2019 na Região Sul, e a previsão feita pelos modelos mostrou uma mediana de 9.405 (IC95%: 9.105-9.738). A identificação do período de ocorrência de um surto de SRAG é possível por meio de modelos preditivos gerados com o uso de redes neurais e algoritmos que aplicam séries temporais.


Resumen: Brotes de síndrome respiratorio agudo grave (SRAG) ocurren todos los años, con picos estacionales que varían entre regiones geográficas. La notificación de los casos es importante para preparar las redes de atención a la salud para el cuidado y hospitalización de los pacientes. Por lo tanto, los gestores de salud deben tener herramientas adecuadas de planificación de recursos para las temporadas de SRAG. Este estudio tiene el objetivo de predecir brotes de SRAG con base en modelos generados con aprendizaje automático utilizando datos de hospitalización por SRAG. Se incluyeron datos sobre casos de hospitalización por SRAG en Brasil desde 2013 hasta 2020, salvo los casos causados por la COVID-19. Se prepararon estos datos para alimentar una red neural configurada para generar modelos predictivos para series temporales. Se implementó la red neural con una herramienta de canalización. Se generaron los modelos para las cinco regiones brasileñas y se validaron para diferentes años de brotes de SRAG. Con el uso de redes neurales, se pudo generar modelos predictivos para los picos de SRAG, el volumen de casos por temporada y para el inicio del periodo pre-epidémico, con una buena correlación de incidencia semanal (R2 = 0,97; IC95%: 0,95-0,98, para la temporada de 2019 en la Región Sudeste). Los modelos predictivos tuvieron una buena predicción del volumen de casos notificados de SRAG; así, se observaron 9.936 casos en 2019 en la Región Sur, y la predicción de los modelos mostró una mediana de 9.405 (IC95%: 9.105-9.738). La identificación del periodo de ocurrencia de un brote de SRAG es posible a través de modelos predictivos generados con el uso de redes neurales y algoritmos que aplican series temporales.

3.
Ciênc. Saúde Colet. (Impr.) ; 29(1): e14712022, 2024. tab
Article in English | LILACS-Express | LILACS | ID: biblio-1528325

ABSTRACT

Abstract Longitudinal study, whose objective was to present a better strategy and statistical methods, and demonstrate its use with the data across the 2013-2015 period in schoolchildren aged 7 to 11 years, covered with the same food questionnaire (WebCAAFE) survey in Florianopolis, southern Brazil. Six meals/snacks and 32 foods/beverages yielded 192 possible combinations denominated meal/snack-Specific Food/beverage item (MSFIs). LASSO algorithm (LASSO-logistic regression) was used to determine the MSFIs predictive of overweight/obesity, and then binary (logistic) regression was used to further analyze a subset of these variables. Late breakfast, lunch and dinner were all associated with increased overweight/obesity risk, as was an anticipated lunch. Time-of-day or meal-tagged food/beverage intake result in large number of variables whose predictive patterns regarding weight status can be analyzed by machine learning such as LASSO, which in turn may identify the patterns not amenable to other popular statistical methods such as binary logistic regression.


Resumo Estudo longitudinal cujo objetivo foi apresentar melhores estratégia e métodos estatísticos e demonstrar sua utilização com os dados do período 2013-2015 em escolares de 7 a 11 anos, contemplados com o mesmo questionário alimentar (WebCAAFE) em Florianópolis, Sul do Brasil. Seis refeições/lanches e 32 alimentos/bebidas resultaram em 192 combinações possíveis denominadas item refeição/lanche-alimentos/bebidas específicos (MSFIs). O algoritmo LASSO (LASSO-regressão logística) foi usado para determinar os MSFIs preditivos de sobrepeso/obesidade e, em seguida, a regressão binária (logística) foi usada para analisar um subconjunto dessas variáveis. Café da manhã, almoço e jantar tardios foram todos associados ao aumento do risco de sobrepeso/obesidade, assim como um almoço antecipado. O consumo de alimentos/bebidas marcados na hora do dia ou na refeição resulta em um grande número de variáveis ​​cujos padrões preditivos em relação ao status do peso podem ser analisados ​​por LASSO. Essa análise pode identificar os padrões não passíveis de outros métodos estatísticos populares, como a regressão logística binária.

4.
Arq. neuropsiquiatr ; 81(12): 1134-1145, Dec. 2023. tab, graf
Article in English | LILACS-Express | LILACS | ID: biblio-1527905

ABSTRACT

Abstract In recent decades, there have been significant advances in the diagnosis of diffuse gliomas, driven by the integration of novel technologies. These advancements have deepened our understanding of tumor oncogenesis, enabling a more refined stratification of the biological behavior of these neoplasms. This progress culminated in the fifth edition of the WHO classification of central nervous system (CNS) tumors in 2021. This comprehensive review article aims to elucidate these advances within a multidisciplinary framework, contextualized within the backdrop of the new classification. This article will explore morphologic pathology and molecular/genetics techniques (immunohistochemistry, genetic sequencing, and methylation profiling), which are pivotal in diagnosis, besides the correlation of structural neuroimaging radiophenotypes to pathology and genetics. It briefly reviews the usefulness of tractography and functional neuroimaging in surgical planning. Additionally, the article addresses the value of other functional imaging techniques such as perfusion MRI, spectroscopy, and nuclear medicine in distinguishing tumor progression from treatment-related changes. Furthermore, it discusses the advantages of evolving diagnostic techniques in classifying these tumors, as well as their limitations in terms of availability and utilization. Moreover, the expanding domains of data processing, artificial intelligence, radiomics, and radiogenomics hold great promise and may soon exert a substantial influence on glioma diagnosis. These innovative technologies have the potential to revolutionize our approach to these tumors. Ultimately, this review underscores the fundamental importance of multidisciplinary collaboration in employing recent diagnostic advancements, thereby hoping to translate them into improved quality of life and extended survival for glioma patients.


Resumo Nas últimas décadas, houve avanços significativos no diagnóstico de gliomas difusos, impulsionados pela integração de novas tecnologias. Esses avanços aprofundaram nossa compreensão da oncogênese tumoral, permitindo uma estratificação mais refinada do comportamento biológico dessas neoplasias. Esse progresso culminou na quinta edição da classificação da OMS de tumores do sistema nervoso central (SNC) em 2021. Esta revisão abrangente tem como objetivo elucidar esses avanços de forma multidisciplinar, no contexto da nova classificação. Este artigo irá explorar a patologia morfológica e as técnicas moleculares/genéticas (imuno-histoquímica, sequenciamento genético e perfil de metilação), que são fundamentais no diagnóstico, além da correlação dos radiofenótipos da neuroimagem estrutural com a patologia e a genética. Aborda sucintamente a utilidade da tractografia e da neuroimagem funcional no planejamento cirúrgico. Destacaremos o valor de outras técnicas de imagem funcional, como ressonância magnética de perfusão, espectroscopia e medicina nuclear, na distinção entre a progressão do tumor e as alterações relacionadas ao tratamento. Discutiremos as vantagens das diferentes técnicas de diagnóstico na classificação desses tumores, bem como suas limitações em termos de disponibilidade e utilização. Além disso, os crescentes avanços no processamento de dados, inteligência artificial, radiômica e radiogenômica têm grande potencial e podem em breve exercer uma influência substancial no diagnóstico de gliomas. Essas tecnologias inovadoras têm o potencial de revolucionar nossa abordagem a esses tumores. Em última análise, esta revisão destaca a importância fundamental da colaboração multidisciplinar na utilização dos recentes avanços diagnósticos, com a esperança de traduzi-los em uma melhor qualidade de vida e uma maior sobrevida.

5.
Radiol. bras ; 56(5): 248-254, Sept.-Oct. 2023. tab, graf
Article in English | LILACS-Express | LILACS | ID: biblio-1529316

ABSTRACT

Abstract Objective: To develop a convolutional neural network (CNN) model, trained with the Brazilian "Estudo Longitudinal de Saúde do Adulto Musculoesquelético" (ELSA-Brasil MSK, Longitudinal Study of Adult Health, Musculoskeletal) baseline radiographic examinations, for the automated classification of knee osteoarthritis. Materials and Methods: This was a cross-sectional study carried out with 5,660 baseline posteroanterior knee radiographs from the ELSA-Brasil MSK database (5,660 baseline posteroanterior knee radiographs). The examinations were interpreted by a radiologist with specific training, and the calibration was as established previously. Results: The CNN presented an area under the receiver operating characteristic curve of 0.866 (95% CI: 0.842-0.882). The model can be optimized to achieve, not simultaneously, maximum values of 0.907 for accuracy, 0.938 for sensitivity, and 0.994 for specificity. Conclusion: The proposed CNN can be used as a screening tool, reducing the total number of examinations evaluated by the radiologists of the study, and as a double-reading tool, contributing to the reduction of possible interpretation errors.


Resumo Objetivo: Desenvolver um modelo computacional - rede neural convolucional (RNC) - treinado com radiografias da linha de base do Estudo Longitudinal de Saúde do Adulto Musculoesquelético (ELSA-Brasil Musculoesquelético), para a classificação automática de osteoartrite dos joelhos. Materiais e Métodos: Trata-se de um estudo transversal abrangendo todos os exames da linha de base do ELSA-Brasil Musculoesquelético (5.660 radiografias dos joelhos em incidência posteroanterior). Os exames foram interpretados por médico radiologista com treinamento específico e calibração previamente publicada. Resultados: A RNC desenvolvida apresentou área sob a curva característica de operação do receptor de 0,866 (IC 95%: 0,842-0,882). O modelo pode ser calibrado para alcançar, não simultaneamente, valores máximos de 0,907 para acurácia, 0,938 para sensibilidade e 0,994 para especificidade. Conclusão: A RNC desenvolvida pode ser utilizada como ferramenta de triagem, reduzindo o número total de exames avaliados pelos radiologistas do estudo, e/ou como ferramenta de segunda leitura, contribuindo com a redução de possíveis erros de interpretação.

6.
Radiol. bras ; 56(5): 263-268, Sept.-Oct. 2023. tab, graf
Article in English | LILACS-Express | LILACS | ID: biblio-1529323

ABSTRACT

Abstract Objective: To validate a deep learning (DL) model for bone age estimation in individuals in the city of São Paulo, comparing it with the Greulich and Pyle method. Materials and Methods: This was a cross-sectional study of hand and wrist radiographs obtained for the determination of bone age. The manual analysis was performed by an experienced radiologist. The model used was based on a convolutional neural network that placed third in the 2017 Radiological Society of North America challenge. The mean absolute error (MAE) and the root-mean-square error (RMSE) were calculated for the model versus the radiologist, with comparisons by sex, race, and age. Results: The sample comprised 714 examinations. There was a correlation between the two methods, with a coefficient of determination of 0.94. The MAE of the predictions was 7.68 months, and the RMSE was 10.27 months. There were no statistically significant differences between sexes or among races (p > 0.05). The algorithm overestimated bone age in younger individuals (p = 0.001). Conclusion: Our DL algorithm demonstrated potential for estimating bone age in individuals in the city of São Paulo, regardless of sex and race. However, improvements are needed, particularly in relation to its use in younger patients.


Resumo Objetivo: Validar em indivíduos paulistas um modelo de aprendizado profundo (deep learning - DL) para estimativa da idade óssea, comparando-o com o método de Greulich e Pyle. Materiais e Métodos: Estudo transversal com radiografias de mão e punho para idade óssea. A análise manual foi feita por um radiologista experiente. Foi usado um modelo baseado em uma rede neural convolucional que ficou em terceiro lugar no desafio de 2017 da Radiological Society of North America. Calcularam-se o erro médio absoluto (mean absolute error - MAE) e a raiz do erro médio quadrado (root mean-square error - RMSE) do modelo contra o radiologista, com comparações entre sexo, etnia e idade. Resultados: A amostra compreendia 714 exames. Houve correlação entre ambos os métodos com coeficiente de determinação de 0,94. O MAE das predições foi 7,68 meses e a RMSE foi 10,27 meses. Não houve diferenças estatisticamente significantes entre sexos ou raças (p > 0,05). O algoritmo superestimou a idade óssea nos mais jovens (p = 0,001). Conclusão: O nosso algoritmo de DL demonstrou potencial para estimar a idade óssea em indivíduos paulistas, independentemente do sexo e da raça. Entretanto, há necessidade de aprimoramentos, particularmente em pacientes mais jovens.

7.
Clin. biomed. res ; 43(1): 75-82, 2023.
Article in Portuguese | LILACS | ID: biblio-1435975

ABSTRACT

A crescente digitalização e aplicação de inteligência artificial (IA) em problemas complexos do mundo real, tem potencial de melhorar os serviços de saúde, inclusive da atuação dos farmacêuticos no processo do cuidado. O objetivo deste estudo foi identificar na literatura científica, estudos que testam algoritmos de aprendizado de máquina (Machine Learning ­ ML) aplicados as atividades de farmacêuticos clínicos no cuidado ao paciente. Trata-se de uma revisão integrativa, realizada nas bases de dados, Pubmed, Portal BVS, Cochrane Library e Embase. Artigos originais, relacionados ao objetivo proposto, disponíveis e publicados antes de 31 de dezembro de 2021, foram incluídos, sem limitações de idioma. Foram encontrados 831 artigos, sendo 5 incluídos relacionados as atividades inseridas nos serviços de revisão da farmacoterapia (3) e monitorização terapêutica (2). Foram utilizadas técnicas supervisionadas (3) e não supervisionadas (2) de ML, com variedade de algoritmos testados, sendo todos os estudos publicados recentemente (2019-2021). Conclui-se que a aplicação da IA na farmácia clínica, ainda é discreta, sinalizando os desafios da era digital.


The growing application of artificial intelligence (AI) in complex real-world problems has shown an enormous potential to improve health services, including the role of pharmacists in the care process. Thus, the objective of this study was to identify, in the scientific literature, studies that addressed the use of machine learning (ML) algorithms applied to the activities of clinical pharmacists in patient care. This is an integrative review, conducted in the databases Pubmed, VHL Regional Portal, Cochrane Library and Embase. Original articles, related to the proposed topic, which were available and published before December 31, 2021, were included, without language limitations. There were 831 articles retrieved 5 of which were related to activities included in the pharmacotherapy review services (3) and therapeutic monitoring (2). Supervised (3) and unsupervised (2) ML techniques were used, with a variety of algorithms tested, with all studies published recently (2019­2021). It is concluded that the application of AI in clinical pharmacy is still discreet, signaling the challenges of the digital age.


Subject(s)
Pharmaceutical Services/organization & administration , Artificial Intelligence/trends , Machine Learning/trends
8.
Rev. bras. epidemiol ; 26: e230021, 2023. tab, graf
Article in English | LILACS-Express | LILACS | ID: biblio-1423224

ABSTRACT

RESUMO Objetivo: To describe the initial baseline results of a population-based study, as well as a protocol in order to evaluate the performance of different machine learning algorithms with the objective of predicting the demand for urgent and emergency services in a representative sample of adults from the urban area of Pelotas, Southern Brazil. Methods: The study is entitled "Emergency department use and Artificial Intelligence in PELOTAS (RS) (EAI PELOTAS)" (https://wp.ufpel.edu.br/eaipelotas/). Between September and December 2021, a baseline was carried out with participants. A follow-up was planned to be conducted after 12 months in order to assess the use of urgent and emergency services in the last year. Afterwards, machine learning algorithms will be tested to predict the use of urgent and emergency services over one year. Results: In total, 5,722 participants answered the survey, mostly females (66.8%), with an average age of 50.3 years. The mean number of household people was 2.6. Most of the sample has white skin color and incomplete elementary school or less. Around 30% of the sample has obesity, 14% diabetes, and 39% hypertension. Conclusion: The present paper presented a protocol describing the steps that were and will be taken to produce a model capable of predicting the demand for urgent and emergency services in one year among residents of Pelotas, in Rio Grande do Sul state.


RESUMO Objetivo: Descrever os resultados iniciais da linha de base de um estudo de base populacional, bem como um protocolo para avaliar o desempenho de diferentes algoritmos de aprendizado de máquina, com o objetivo de predizer a demanda de serviços de urgência e emergência em uma amostra representativa de adultos da zona urbana de Pelotas, no Sul do Brasil. Métodos: O estudo intitula-se "Emergency department use and Artificial Intelligence in PELOTAS (RS) (EAI PELOTAS)" (https://wp.ufpel.edu.br/eaipelotas/). Entre setembro e dezembro de 2021, foi realizada uma linha de base com os participantes. Está previsto um acompanhamento após 12 meses para avaliar a utilização de serviços de urgência e emergência no último ano. Em seguida, serão testados algoritmos de machine learning para predizer a utilização de serviços de urgência e emergência no período de um ano. Resultados: No total, 5.722 participantes responderam à pesquisa, a maioria do sexo feminino (66,8%), com idade média de 50,3 anos. O número médio de pessoas no domicílio foi de 2,6. A maioria da amostra tem cor da pele branca e ensino fundamental incompleto ou menos. Cerca de 30% da amostra estava com obesidade, 14% com diabetes e 39% eram hipertensos. Conclusão: O presente trabalho apresentou um protocolo descrevendo as etapas que foram e serão tomadas para a produção de um modelo capaz de prever a demanda por serviços de urgência e emergência em um ano entre moradores de Pelotas, no estado do Rio Grande do Sul.

9.
Rev. Col. Bras. Cir ; 50: e20233561, 2023. graf
Article in English | LILACS-Express | LILACS | ID: biblio-1449181

ABSTRACT

ABSTRACT Introduction: flexible ureteroscopy is a minimally invasive surgical technique used for the treatment of renal lithiasis. Postoperative urosepsis is a rare but potentially fatal complication. Traditional models used to predict the risk of this condition have limited accuracy, while models based on artificial intelligence are more promising. The objective of this study is to carry out a systematic review regarding the use of artificial intelligence to detect the risk of sepsis in patients with renal lithiasis undergoing flexible ureteroscopy. Methods: the literature review is in accordance with the Preferred Reporting Items for Systematic Reviews and Meta-Analysis (PRISMA). The keyword search was performed in MEDLINE, Embase, Web of Science and Scopus and resulted in a total of 2,496 articles, of which 2 met the inclusion criteria. Results: both studies used artificial intelligence models to predict the risk of sepsis after flexible uteroscopy. The first had a sample of 114 patients and was based on clinical and laboratory parameters. The second had an initial sample of 132 patients and was based on preoperative computed tomography images. Both obtained good measurements of Area Under the Curve (AUC), sensitivity and specificity, demonstrating good performance. Conclusion: artificial intelligence provides multiple effective strategies for sepsis risk stratification in patients undergoing urological procedures for renal lithiasis, although further studies are needed.


RESUMO Introdução: a ureteroscopia flexível é uma técnica cirúrgica minimamente invasiva utilizada para o tratamento de litíase renal. A urosepse pós-operatória é uma complicação rara, mas potencialmente fatal. Os modelos tradicionais utilizados para prever o risco dessa condição apresentam precisão limitada, enquanto modelos baseados em inteligência artificial são mais promissores. O objetivo desse estudo é realizar uma revisão sistemática a respeito do uso de inteligência artificial para detecção do risco de sepse em pacientes com litíase renal submetidos à ureteroscopia flexível. Métodos: a revisão de literatura está de acordo com o Preferred Reporting Items for Systematic Reviews and Meta-Analysis (PRISMA). A busca com palavras-chave foi realizada no MEDLINE, Embase, Web of Science e Scopus e resultou no total de 2.496 artigos, dos quais 2 se enquadraram nos critérios de inclusão. Resultados: os dois estudos utilizaram modelos de inteligência artificial para predizer o risco de sepse após utereroscopia flexível. O primeiro teve uma amostra de 114 pacientes e foi baseado em parâmetros clínicos e laboratoriais. O segundo teve uma amostra inicial de 132 pacientes e foi baseado em imagens de tomografia computadorizada no pré-operatório. Ambos obtiveram boas medidas de Area Under the Curve (AUC), sensibilidade e especificidade, demonstrando boa performance. Conclusão: a inteligência artificial fornece múltiplas estratégias eficazes para estratificação do risco de sepse em pacientes submetidos a procedimentos urológicos para litíase renal, ainda que mais estudos sejam necessários.

10.
Rev. bras. saúde ocup ; 48: e4, 2023. tab, graf
Article in Portuguese | LILACS | ID: biblio-1431679

ABSTRACT

Resumo Introdução: realizar a predição de doenças relacionadas ao trabalho é um desafio às organizações e ao poder público. Com as técnicas de aprendizado de máquina (AM), é possível identificar fatores determinantes para a ocorrência de uma doença ocupacional, visando direcionar ações mais efetivas à proteção dos trabalhadores. Objetivo: predizer, a partir da comparação de técnicas de AM, os fatores com maior influência para a ocorrência de dermatite ocupacional. Métodos: desenvolveu-se um código em linguagem R e uma análise descritiva dos dados e identificaram-se os fatores de influência de acordo com a técnica de AM que demonstrou melhor desempenho. O banco de dados foi disponibilizado pelo Serviço de Dermatologia Ocupacional da Fundação Oswaldo Cruz e contém informações de trabalhadores que apresentaram alterações cutâneas sugestivas de dermatite ocupacional no período de 2000-2014. Resultados: as técnicas com melhor desempenho foram: neural network, random forest, support vector machine e naive Bayes. As variáveis sexo, escolaridade e profissão foram as mais adequadas para os modelos de previsão de dermatite ocupacional. Conclusão: as técnicas de AM possibilitam predizer os fatores que influenciam a segurança e a saúde dos trabalhadores, os parâmetros que subsidiam a implantação de procedimentos e as políticas mais efetivas para prevenir a dermatite ocupacional.


Abstract Introduction: to predict work related diseases is a challenge for organizations and the governmental authorities. By means of machine learning (ML) techniques it is possible to identify factors that determine the occurrence of an occupational disease, aiming at taking more effective actions to protect workers. Objective: to predict, by comparing ML techniques, the factors which highly influence the occurrence of occupational dermatitis. Methods: we developed a code in R language and a descriptive analysis of the data and identified the influence factors according to the ML technique that presented the best performance. The database was made available by the Occupational Dermatology Service of Oswaldo Cruz Foundation and assembles information of the workers who experienced cutaneous alterations suggestive of occupational dermatitis between 2000-2014. Results: the techniques which presented the best performance were: neural network, random forest, support vector machine, and naive Bayes. Sex, schooling, and profession were the most adequate variables for the occupational dermatitis prediction models. Conclusion: ML techniques allowed to predict the factors that influence the workers' safety and health, as well as the parameters that subsidize the procedures implementation, and the most effective policies to prevent occupational dermatitis.


Subject(s)
Safety , Occupational Health , Dermatitis, Occupational , Dermatology , Protective Factors , Occupational Diseases , Learning , Methods , Occupational Groups
11.
Acta Paul. Enferm. (Online) ; 36: eAPE00771, 2023. tab, graf
Article in Portuguese | LILACS-Express | LILACS, BDENF | ID: biblio-1419846

ABSTRACT

Resumo Objetivo Comparar o desempenho de modelos de aprendizado de máquina com o Medication Fall Risk Score (MFRS) na previsão de risco de queda relacionado a medicamentos prescritos. Métodos Trata-se de um estudo caso-controle retrospectivo de pacientes adultos e idosos de um hospital terciário de Porto Alegre, RS, Brasil. Medicamentos prescritos e classes de medicamentos foram investigados. Os dados foram exportados para o software RStudio para análise estatística. As variáveis foram analisadas por meio dos algoritmos de Regressão Logística, Naive Bayes, Random Forest e Gradient Boosting. A validação do algoritmo foi realizada usando validação cruzada de 10 vezes. O índice de Youden foi a métrica selecionada para avaliar os modelos. O projeto foi aprovado pelo Comitê de Ética em Pesquisa. Resultados O modelo de aprendizado de máquina que apresentou melhor desempenho foi o desenvolvido pelo algoritmo Naive Bayes. O modelo construído a partir de um conjunto de dados de um hospital específico apresentou melhores resultados para a população estudada do que o MFRS, uma ferramenta generalizável. Conclusão Ferramentas de previsão de risco que dependem de aplicação e registro adequados por parte dos profissionais demandam tempo e atenção que poderiam ser alocados ao cuidado do paciente. Modelos de previsão construídos por meio de algoritmos de aprendizado de máquina podem ajudar a identificar riscos para melhorar o atendimento ao paciente.


Resumen Objetivo Comparar el desempeño de modelos de aprendizaje de máquina con Medication Fall Risk Score (MFRS) para la previsión del riesgo de caída relacionado con medicamentos prescriptos. Métodos Se trata de un estudio caso-control retrospectivo de pacientes adultos y adultos mayores de un hospital terciario de Porto Alegre, estado de Rio Grande do Sul, Brasil. Se investigaron los medicamentos prescriptos y las clases de medicamentos. Los datos fueron exportados al software RStudio para el análisis estadístico. Las variables se analizaron a través de los algoritmos de regresión logística Naive Bayes, Random Forest y Gradient Boosting. La validación del algoritmo se realizó usando validación cruzada de 10 veces. El índice de Youden fue la métrica seleccionada para evaluar los modelos. El proyecto fue aprobado por el Comité de Ética en Investigación. Resultados El modelo de aprendizaje de máquina que presentó el mejor desempeño fue el desarrollado por el algoritmo Naive Bayes. El modelo construido a partir de un conjunto de datos de un hospital específico presentó mejores resultados en la población estudiada que el MFRS, una herramienta generalizada. Conclusión Herramientas de previsión de riesgo que dependen de la aplicación y el registro adecuados por parte de los profesionales demandan tiempo y atención que podría ser destinado al cuidado del paciente. Modelos de previsión construidos mediante algoritmos de aprendizaje de máquina pueden ayudar a identificar riesgos para mejorar la atención al paciente.


Abstract Objective To compare the performance of machine-learning models with the Medication Fall Risk Score (MFRS) in predicting fall risk related to prescription medications. Methods This is a retrospective case-control study of adult and older adult patients in a tertiary hospital in Porto Alegre, RS, Brazil. Prescription drugs and drug classes were investigated. Data were exported to the RStudio software for statistical analysis. The variables were analyzed using Logistic Regression, Naive Bayes, Random Forest, and Gradient Boosting algorithms. Algorithm validation was performed using 10-fold cross validation. The Youden index was the metric selected to evaluate the models. The project was approved by the Research Ethics Committee. Results The machine-learning model showing the best performance was the one developed by the Naive Bayes algorithm. The model built from a data set of a specific hospital showed better results for the studied population than did MFRS, a generalizable tool. Conclusion Risk-prediction tools that depend on proper application and registration by professionals require time and attention that could be allocated to patient care. Prediction models built through machine-learning algorithms can help identify risks to improve patient care.

12.
MedUNAB ; 25(3): [353-358], 01-12-2022.
Article in English | LILACS | ID: biblio-1437240

ABSTRACT

La era de la cirugía digital se caracteriza por la implementación de nuevas tecnologías que tienen el potencial de mejorar la planeación prequirúrgica, incrementar la disponibilidad de alternativas terapéuticas, mejorar el entrenamiento quirúrgico en aprendices, optimizar los resultados postoperatorios de los pacientes y, a su vez, reducir posibles eventos adversos (1). A pesar de que la incorporación de estas tecnologías tiene como premisa principal mejorar los resultados clínicos de los pacientes, el uso de estos avances se ha visto acelerado por intereses comerciales y por las oportunidades que tienen las grandes compañías de generar ganancias a nivel mundial (2). Entre las tecnologías que en la actualidad están teniendo un impacto directo en el campo quirúrgico se resaltan la inteligencia artificial (IA), la realidad aumentada (RA) y el aprendizaje automatizado (AA), sin dejar de lado la disponibilidad de dispositivos robóticos de uso cotidiano (3). A pesar de que la cirugía digital cada vez gana más popularidad en la práctica clínica, en la actualidad aún existe una falta de conocimiento de esta, de sus beneficios y de las potenciales barreras para su adopción.


The era of digital surgery is characterized by the implementation of new technologies that have the potential to improve preoperative planning, increase the availability of therapeutic alternatives, improve surgical training in apprentices, optimize postoperative results for patients, and reduce possible adverse events (1). Although the incorporation of these technologies has the main premise of improving patients' clinical outcomes, the use of these advances has been accelerated by commercial interests and the opportunities that large companies have to generate profits worldwide (2). The technologies that are currently having a direct impact on the surgical field are artificial intelligence (AI), augmented reality (AR), and machine learning (ML), without forgetting the availability of other robotic devices (3). Although digital surgery is gaining more popularity in the clinical practice, there is still a lack of knowledge about it, its benefits, and potential barriers to its adoption.


A era da cirurgia digital é caracterizada pela implementação de novas tecnologias que têm o potencial de melhorar o planejamento pré-cirúrgico, aumentar a disponibilidade de alternativas terapêuticas, melhorar o treinamento cirúrgico dos aprendizes, otimizar os resultados pós-operatórios dos pacientes e, por sua vez, reduzir possíveis eventos adversos (1). Embora a incorporação dessas tecnologias tenha como principal objetivo melhorar os resultados clínicos dos pacientes, a utilização desses avanços tem sido acelerada por interesses comerciais e pelas oportunidades que grandes empresas têm de gerar lucros em todo o mundo (2). Entre as tecnologias que atualmente têm impacto direto no campo cirúrgico se destacam a inteligência artificial (IA), a realidade aumentada (RA) e o aprendizagem de máquinas (AM), sem deixar de lado a disponibilidade de dispositivos robóticos para uso cotidiano (3). Embora a cirurgia digital esteja ganhando cada vez mais popularidade na prática clínica, atualmente ainda há falta de conhecimento sobre ela, seus benefícios e possíveis barreiras para sua adoção.


Subject(s)
General Surgery , Technology , Artificial Intelligence , Creativity , Machine Learning
13.
Rev. bras. ter. intensiva ; 34(4): 477-483, out.-dez. 2022. tab, graf
Article in Portuguese | LILACS-Express | LILACS | ID: biblio-1423671

ABSTRACT

RESUMO Objetivo: Criar e validar um modelo de predição de choque séptico ou hipovolêmico a partir de variáveis de fácil obtenção coletadas na admissão de pacientes internados em uma unidade de terapia intensiva. Métodos: Estudo de modelagem preditiva com dados de coorte concorrente realizada em um hospital do interior do nordeste brasileiro. Foram incluídos pacientes com 18 anos ou mais sem uso de droga vasoativa no dia da admissão e que foram internados entre novembro de 2020 e julho de 2021. Foram testados os algoritmos de classificação do tipo Decision Tree, Random Forest, AdaBoost, Gradient Boosting e XGBoost para a construção do modelo. O método de validação utilizado foi o k-fold cross validation. As métricas de avaliação utilizadas foram recall, precisão e área sob a curva Receiver Operating Characteristic. Resultados: Foram utilizados 720 pacientes para criação e validação do modelo. Os modelos apresentaram alta capacidade preditiva com área sob a curva Receiver Operating Characteristic de 0,979; 0,999; 0,980; 0,998 e 1,00 para os algoritmos de Decision Tree, Random Forest, AdaBoost, Gradient Boosting e XGBoost, respectivamente. Conclusão: O modelo preditivo criado e validado apresentou elevada capacidade de predição do choque séptico e hipovolêmico desde o momento da admissão de pacientes na unidade de terapia intensiva.


ABSTRACT Objective: To create and validate a model for predicting septic or hypovolemic shock from easily obtainable variables collected from patients at admission to an intensive care unit. Methods: A predictive modeling study with concurrent cohort data was conducted in a hospital in the interior of northeastern Brazil. Patients aged 18 years or older who were not using vasoactive drugs on the day of admission and were hospitalized from November 2020 to July 2021 were included. The Decision Tree, Random Forest, AdaBoost, Gradient Boosting and XGBoost classification algorithms were tested for use in building the model. The validation method used was k-fold cross validation. The evaluation metrics used were recall, precision and area under the Receiver Operating Characteristic curve. Results: A total of 720 patients were used to create and validate the model. The models showed high predictive capacity with areas under the Receiver Operating Characteristic curve of 0.979; 0.999; 0.980; 0.998 and 1.00 for the Decision Tree, Random Forest, AdaBoost, Gradient Boosting and XGBoost algorithms, respectively. Conclusion: The predictive model created and validated showed a high ability to predict septic and hypovolemic shock from the time of admission of patients to the intensive care unit.

14.
Saúde debate ; 46(135): 1202-1214, out.-dez. 2022. tab, graf
Article in Portuguese | LILACS-Express | LILACS | ID: biblio-1424496

ABSTRACT

RESUMO O objetivo deste estudo foi identificar como a Inteligência Artificial (IA) vem sendo utilizada para a pesquisa translacional no contexto da Covid-19. Foi realizada uma revisão rápida para identificar o uso de técnicas de IA na translação de tecnologias para o enfrentamento da Covid-19. Empregou-se estratégia de busca com base em termos MeSH e seus respectivos sinônimos em sete bases de dados. Dos 59 artigos identificados, oito foram incluídos. Foram identificadas 11 experiências que usaram IA para a pesquisa translacional em Covid-19: predição de eficácia medicamentosa; predição de patogenicidade do Sars-CoV-2; diagnóstico de imagem para Covid-19; predição de incidência de Covid-19; estimativas de impacto da Covid-19 na sociedade; automatização de sanitização de ambientes hospitalares e clínicos; rastreio de pessoas infectadas e possivelmente infectadas; monitoramento do uso de máscaras; predição de gravidade de pacientes; estratificação de risco do paciente; e predição de recursos hospitalares. A pesquisa translacional pode ajudar no desenvolvimento produtivo e industrial em saúde, especialmente quando apoiada em métodos de IA, uma ferramenta cada vez mais importante, sobretudo quando se discute a Quarta Revolução Industrial e suas aplicações na saúde.


ABSTRACT The objective of this study was to identify how Artificial Intelligence (AI) has been used for translational research in the context of COVID-19. A rapid review was carried out to identify the use of AI techniques in the translation of technologies to face COVID-19. A search strategy was used based on MeSH terms and their respective synonyms in seven databases. Of the 59 articles identified, eight were included. We identified 11 experiments that used AI for translational research in Covid-19: prediction of drug efficacy; predicting the pathogenicity of SARS-CoV-2; imaging diagnosis for COVID-19; predicting the incidence of COVID-19; estimates of the impact of COVID-19 on society; automation of sanitizing hospital and clinical environments; screening of infected and possibly infected people; monitoring the use of masks; prediction of patient severity; patient risk stratification; and prediction of hospital resources. Translational research can help in productive and industrial development in health, especially when supported by AI methods, an increasingly important tool, especially when discussing the Fourth Industrial Revolution and its applications in health.

15.
Article in English, Portuguese | LILACS-Express | LILACS | ID: biblio-1437052

ABSTRACT

Introduction: the Coronavirus Disease 2019 (COVID-19) is a viral disease which has been declared a pandemic by the WHO. Diagnostic tests are expensive and are not always available. Researches using machine learning (ML) approach for diagnosing SARS-CoV-2 infection have been proposed in the literature to reduce cost and allow better control of the pandemic. Objective: we aim to develop a machine learning model to predict if a patient has COVID-19 with epidemiological data and clinical features. Methods: we used six ML algorithms for COVID-19 screening through diagnostic prediction and did an interpretative analysis using SHAP models and feature importances. Results: our best model was XGBoost (XGB) which obtained an area under the ROC curve of 0.752, a sensitivity of 90%, a specificity of 40%, a positive predictive value (PPV) of 42.16%, and a negative predictive value (NPV) of 91.0%. The best predictors were fever, cough, history of international travel less than 14 days ago, male gender, and nasal congestion, respectively. Conclusion: we conclude that ML is an important tool for screening with high sensitivity, compared to rapid tests, and can be used to empower clinical precision in COVID-19, a disease in which symptoms are very unspecific.


Introdução: a Doença do Coronavírus 2019 (COVID-19) é uma doença viral que foi declarada uma pandemia pela OMS. Testes diagnósticos são caros e nem sempre estão disponíveis. Pesquisas utilizando a abordagem de aprendizado de máquina (ML) para o diagnóstico de infecção por SARS-CoV-2 têm sido propostas na literatura para reduzir custos e permitir melhor controle da pandemia.Objetivo: nosso objetivo é desenvolver um modelo de aprendizado de máquina para prever se um paciente tem COVID-19 com dados epidemiológicos e características clínicas.Método: usamos seis algoritmos de ML para triagem de COVID-19 por meio de predição diagnóstica e fizemos uma análise interpretativa usando modelos SHAP e importâncias de recursos.Resultados: nosso melhor modelo foi o XGBoost (XGB) que obteve área sob a curva ROC de 0,752, sensibilidade de 90%, especificidade de 40%, valor preditivo positivo (VPP) de 42,16% e valor preditivo negativo ( VPL) de 91,0%. Os melhores preditores foram febre, tosse, história de viagem internacional há menos de 14 dias, sexo masculino e congestão nasal, respectivamente.Conclusão: Concluímos que o ML é uma importante ferramenta de triagem com alta sensibilidade, em comparação aos testes rápidos, e pode ser usado para potencializar a precisão clínica na COVID-19, doença em que os sintomas são muito inespecíficos.

16.
J. health inform ; 14(1): 26-34, jan.-mar. 2022. tab
Article in English | LILACS | ID: biblio-1370952

ABSTRACT

Objective: Identify the risk of patients with Chronic Chagas Cardiomyopathy (CCC) to prevent them from having Sudden Cardiac Death (SCD). Methods: We developed an SCD prediction system using a heterogeneous dataset of chagasic patients evaluated in 9 state-of-the-art machine learning algorithms to select the most critical clinical variables and predict SCD in chagasic patients even when the interval between the most recent exams and the SCD event is months or years. Results: 310 patients were analyzed, being 81 (14,7%) suffering from SCD. In the study, Balanced Random Forest showed the best performance, with AUC:80.03 and F1:75.12. Due to their high weights in the machine learning classifiers, we suggest Holter - Non-Sustained Ventricular Tachycardia, Total Ventricular Extrasystoles, Left Ventricular Systolic Diameter, Syncope, and Left Ventricular Diastolic Diameter as essential features to identify SCD. Conclusion: The high-risk pattern of SCD in patients with CCC can be identified and prevented based on clinical and laboratory variables.


Objetivo: Identificar o risco de pacientes com Cardiomiopatia Chagásica Crônica (CCC) para prevenir a Morte Súbita Cardíaca (MSC). Métodos: Desenvolvemos um sistema de MSC usando um conjunto de dados heterogêneo de pacientes chagásicos avaliados em 9 algoritmos de aprendizado de máquina de última geração para selecionar as variáveis clínicas mais críticas e prever MSC em pacientes chagásicos mesmo quando o intervalo mais recente entre os mais recentes exames e o evento MSC é meses ou anos. Resultados: Foram analisados 310 pacientes, sendo 81 (14,7%) portadores de CCC. No estudo, o algoritmo Balanced Random Forest apresentou o melhor desempenho, com AUC:80,03 e F1:75,12. Devido ao seu alto peso nos classificadores de aprendizado de máquina, sugerimos Holter - Taquicardia Ventricular Não Sustentada, Extrassístoles Ventriculares Totais, Diâmetro Sistólico do Ventrículo Esquerdo, Síncope e Diâmetro Diastólico do Ventrículo Esquerdo como características essenciais para identificar a CCC. Conclusão: O padrão de alto risco de MSC em pacientes com CCC pode ser identificado e prevenido com base em variáveis clínicas e laboratoriais.


Objetivo: Identificar el riesgo de los pacientes con Miocardiopatía Chagásica Crónica (MCC) para evitar que presenten Muerte Cardíaca Súbita (MCS). Métodos: Desarrollamos un sistema MCS utilizando un conjunto de datos heterogéneo de pacientes chagásicos evaluados en 9 algoritmos de aprendizaje automático de última generación para seleccionar las variables clínicas más críticas y predecir MCS en pacientes chagásicos incluso cuando el intervalo más reciente entre los más recientes exámenes y el evento MCS es meses o años. Resultados: Se analizaron 310 pacientes, siendo 81 (14,7%) con MSC. En el estudio, Balanced Random Forest mostró el mejor desempeño, con AUC:80.03 y F1:75.12. Debido a su alto peso en los clasificadores de aprendizaje automático, sugerimos Holter - Taquicardia ventricular no sostenida, Extrasístoles ventriculares totales, Diámetro sistólico del ventrículo izquierdo, Síncope y Diámetro diastólico del ventrículo izquierdo como características esenciales para identificar la MSC. Conclusión: El patrón de alto riesgo de MSC en pacientes con MCC se puede identificar y prevenir con base en variables clínicas y de laboratorio.


Subject(s)
Humans , Male , Female , Chagas Cardiomyopathy/complications , Death, Sudden, Cardiac/prevention & control , Machine Learning , Algorithms , Chronic Disease , Probability , Risk Assessment , Electrocardiography
17.
Arq. neuropsiquiatr ; 80(2): 112-116, Feb. 2022. graf
Article in English | LILACS | ID: biblio-1364362

ABSTRACT

ABSTRACT Background: There is a high demand for stroke patient data in the public health systems of middle and low-income countries. Objective: To develop a stroke databank for integrating clinical or functional data and benchmarks from stroke patients. Methods: This was an observational, cross-sectional, prospective study. A tool was developed to collect all clinical data during hospitalizations due to stroke, using an electronic editor of structured forms that was integrated with electronic medical records. Validation of fields in the electronic editor was programmed using a structured query language (SQL). To store the results from SQL, a virtual table was created and programmed to update daily. To develop an interface between the data and user, the Embarcadero Delphi software and the DevExpress component were used to generate the information displayed on the screen. The data were extracted from the fields of the form and also from cross-referencing of other information from the computerized system, including patients who were admitted to the stroke unit. Results: The database was created and integrated with the hospital electronic system, thus allowing daily data collection. Quality indicators (benchmarks) were created in the database for the system to track and perform decision-making in conjunction with healthcare service managers, which resulted in improved processes and patient care after a stroke. An intelligent portal was created, in which the information referring to the patients was accessible. Conclusions: Based on semi-automated data collection, it was possible to create a dynamic and optimized Brazilian stroke databank.


RESUMO Antecedentes: Há alta demanda de dados de pacientes com acidente vascular cerebral (AVC) nos sistemas de saúde de países de baixa e média renda. Objetivo: Desenvolver um banco de dados de AVC para integrar dados clínicos ou funcionais e indicadores de qualidade de pacientes com AVC. Métodos: Estudo observacional, transversal e prospectivo. Foi desenvolvida uma ferramenta para coletar dados clínicos durante as internações por AVC por meio de um editor eletrônico de formulários estruturados integrado ao prontuário eletrônico. A validação dos campos no editor eletrônico foi programada em linguagem de consulta estruturada (SQL). Para armazenar os resultados da SQL, uma tabela virtual foi criada e programada para atualização diária. Para desenvolver interface entre os dados e o usuário, foram utilizados o software Embarcadero Delphi e o componente DevExpress para gerar informações apresentadas na tela. Os dados foram extraídos dos campos do formulário e também do cruzamento de outras informações do sistema informatizado, incluindo pacientes internados na unidade de AVC. Resultados: O banco de dados foi criado e integrado ao sistema eletrônico do hospital, permitindo coleta diária de dados. Indicadores de qualidade foram criados no banco de dados para que o sistema acompanhasse e realizasse a tomada de decisão com os gestores dos serviços de saúde, resultando em melhoria no processo e no atendimento ao paciente após AVC. Foi criado um portal inteligente, no qual eram registradas as informações referentes aos pacientes. Conclusões: Com a coleta de dados semiautomática, foi possível criar um banco de dados de AVC dinâmico e otimizado em unidade de AVC no Brasil.


Subject(s)
Humans , Stroke , Electronic Health Records , Brazil , Cross-Sectional Studies , Data Collection , Prospective Studies
19.
Rev. bras. enferm ; 75(5): e20210586, 2022. tab
Article in English | LILACS-Express | LILACS, BDENF | ID: biblio-1376593

ABSTRACT

ABSTRACT Objective: To analyze the critical alarms predictors of clinical deterioration/sepsis for clinical decision making in patients admitted to a reference hospital complex. Methods: An observational retrospective cohort study. The Machine Learning (ML) tool, Robot Laura®, scores changes in vital parameters and lab tests, classifying them by severity. Inpatients and patients over 18 years of age were included. Results: A total of 122,703 alarms were extracted from the platform, classified as 2 to 9. The pre-selection of critical alarms (6 to 9) indicated 263 urgent alerts (0.2%), from which, after filtering exclusion criteria, 254 alerts were delimited for 61 inpatients. Patient mortality from sepsis was 75%, of which 52% was due to sepsis related to the new coronavirus. After the alarms were answered, 82% of the patients remained in the sectors. Conclusions: Far beyond technology, ML models can speed up assertive clinical decisions by nurses, optimizing time and specialized human resources.


RESUMEN Objetivo: Analizar alarmas críticas predictoras de deterioración clínica/sepsis para toma de decisiones clínicas en pacientes internados en complejo hospitalario de referencia. Métodos: Estudio observacional de cohorte retrospectivo. La herramienta Machine Learning (ML), Robot Laura®, puntúa alteraciones en parámetros vitales y exámenes laboratoriales, clasificándolos por gravedad. Incluyeron pacientes internados y mayores de 18 años. Resultados: Extrajeron 122.703 alarmas de la plataforma, clasificadas de 2 hasta 9. La preselección de alarmas críticas (6 a 9) apuntó 263 alertas urgentes (0,2%), entre ellas, después del filtro de criterios de exclusión, delimitaron 254 alertas para 61 pacientes internados. La mortalidad de pacientes por sepsis fue de 75%, entre ellos 52% debido a sepsis relacionada al nuevo coronavirus. Después de las alarmas ser atendidas, 82% de los pacientes permanecieron en los sectores. Conclusiones: Más allá de la tecnología, modelos de ML pueden agilizar la decisión clínica asertiva de enfermeros, optimizando tiempos y recursos humanos especializados.


RESUMO Objetivo: Analisar os alarmes críticos preditores de deterioração clínica/sepse para tomada de decisão clínica nos pacientes internados em complexo hospitalar de referência. Métodos: Estudo observacional de coorte retrospectivo. A ferramenta de Machine Learning (ML), Robô Laura®, pontua alterações nos parâmetros vitais e exames laboratoriais, classificando-os por gravidade. Incluíram-se pacientes internados e maiores de 18 anos. Resultados: Extraíram-se 122.703 alarmes da plataforma, classificados de 2 até 9. A pré-seleção dos alarmes críticos (6 a 9) apontou 263 alertas urgentes (0,2%), dos quais, após o filtro de critérios de exclusão, delimitaram se 254 alertas para 61 pacientes internados. A mortalidade dos pacientes por sepse foi de 75%, dos quais 52% devido à sepse relacionada ao novo coronavírus. Após os alarmes serem atendidos, 82% dos pacientes permaneceram nos setores. Conclusões: Muito além da tecnologia, modelos de ML podem agilizar a decisão clínica assertiva dos enfermeiros, otimizando tempos e recursos humanos especializados.

20.
Article in English | LILACS, BBO | ID: biblio-1395085

ABSTRACT

ABSTRACT Artificial intelligence develops rapidly and health is one of the areas where new technologies in this field are most promising. The use of artificial intelligence can modify the way health care and self-care are provided, besides influencing the organization of health systems. Therefore, the regulation of artificial intelligence in healthcare is an emerging and essential topic. Specific laws and regulations are being developed around the world. In Brazil, the starting point of this regulation is the Lei Geral de Proteção de Dados Pessoais (LGPD - General Personal Data Protection Law), which recognizes the right to explanation and review of automated decisions. Discussing the scope of this right is needed, considering the necessary instrumentalization of transparency in the use of artificial intelligence for health and the currently existing limits, such as the black-box system inherent to algorithms and the trade-off between explainability and accuracy of automated systems.


RESUMO A inteligência artificial se desenvolve rapidamente e a saúde é uma das áreas em que as novas tecnologias desse campo são mais promissoras. O uso de inteligência artificial tem potencial para modificar a forma de prestação da assistência à saúde e do autocuidado, além de influenciar a organização dos sistemas de saúde. Por isso, a regulação da inteligência artificial na saúde é um tema emergente e essencial. Leis e normas específicas são elaboradas em todo o mundo. No Brasil, o marco inicial dessa regulação é a Lei Geral de Proteção de Dados Pessoais, a partir do reconhecimento do direito à explicação e à revisão de decisões automatizadas. É preciso debater a abrangência desse direito, considerando a necessária instrumentalização da transparência no uso da inteligência artificial na saúde e os limites atualmente existentes, como a dimensão caixa-preta inerente aos algoritmos e o trade-off existente entre explicabilidade e precisão dos sistemas automatizados.


Subject(s)
Brazil , Health Systems/organization & administration , Artificial Intelligence/legislation & jurisprudence , Comprehensive Health Care , Privacy , Health Law , Machine Learning , Health Services Research
SELECTION OF CITATIONS
SEARCH DETAIL